程序中的魔术值是一个恒定的符号,对于执行程序至关重要,但对其选择没有明确的解释。对于现有的程序综合方法,很难学习具有魔法价值的学习程序。为了克服这一限制,我们引入了一种归纳逻辑编程方法,以有效地学习具有魔术价值的程序。我们对包括程序合成,药物设计和游戏玩法在内的各种领域的实验表明,我们的方法可以(i)在预测精度和学习时间方面优于现有方法,(ii)从无限领域中学习魔法价值观,例如PI的值和(iii)比例为具有数百万个恒定符号的域。
translated by 谷歌翻译
The goal of inductive logic programming (ILP) is to search for a hypothesis that generalises training examples and background knowledge (BK). To improve performance, we introduce an approach that, before searching for a hypothesis, first discovers where not to search. We use given BK to discover constraints on hypotheses, such as that a number cannot be both even and odd. We use the constraints to bootstrap a constraint-driven ILP system. Our experiments on multiple domains (including program synthesis and game playing) show that our approach can (i) substantially reduce learning times by up to 97%, and (ii) scale to domains with millions of facts.
translated by 谷歌翻译
Artificial Intelligence (AI) is used to create more sustainable production methods and model climate change, making it a valuable tool in the fight against environmental degradation. This paper describes the paradox of an energy-consuming technology serving the ecological challenges of tomorrow. The study provides an overview of the sectors that use AI-based solutions for environmental protection. It draws on numerous examples from AI for Green players to present use cases and concrete examples. In the second part of the study, the negative impacts of AI on the environment and the emerging technological solutions to support Green AI are examined. It is also shown that the research on less energy-consuming AI is motivated more by cost and energy autonomy constraints than by environmental considerations. This leads to a rebound effect that favors an increase in the complexity of models. Finally, the need to integrate environmental indicators into algorithms is discussed. The environmental dimension is part of the broader ethical problem of AI, and addressing it is crucial for ensuring the sustainability of AI in the long term.
translated by 谷歌翻译
当测试数据与培训数据不同时,机器学习模型很容易失败,这种情况通常在称为分销转移的真实应用程序中遇到。尽管仍然有效,但培训时间知识的效率就降低了,需要进行测试时间适应以保持高性能。以下方法假设批处理层并使用其统计数据进行适应,我们提出了使用主成分分析(TTAWPCA)的测试时间适应,该测试时间假定拟合的PCA并在测试时间适应基于光谱过滤器,基于奇异的滤波器。 PCA可用于腐败的鲁棒性。 TTAWPCA结合了三个组件:使用主成分分析(PCA)分解给定层的输出,并通过其单数值的惩罚过滤,并用PCA逆变换重建。与当前方法相比,这种通用增强功能增加的参数少。在CIFAR-10-C和CIFAR-100-C上进行的实验证明了使用2000参数的唯一滤波器的有效性和限制。
translated by 谷歌翻译
生物视觉系统在没有监督的情况下学习视觉表示的能力是无与伦比的。在机器学习中,对比度学习(CL)已导致以无监督的方式形成对象表示。这些系统学习了对图像的增强操作不变的表示,例如裁剪或翻转。相反,生物视觉系统利用视觉体验的时间结构。这可以访问CL中常用的不常见的增强,例如从多个观点或不同背景观看相同的对象。在这里,我们系统地研究并比较了此类基于时间的增强对对象类别的潜在好处。我们的结果表明,基于时间的增强功能超过了最先进的图像增强功能。具体而言,我们的分析表明:1)3-D对象旋转极大地改善了对象类别的学习; 2)在不断变化的背景下查看对象对于学习丢弃与背景相关的信息至关重要。总体而言,我们得出的结论是,基于时间的增强可以极大地改善对比度学习,从而缩小人工和生物视觉系统之间的差距。
translated by 谷歌翻译
尽管在过去的十年中已经在很大程度上研究了原始图像的加固学习(RL),但现有方法仍然受到许多限制。通常使用专家知识来处理高输入维度,以提取手工制作的功能或通过卷积网络编码的环境。两种解决方案都需要优化许多参数。相比之下,我们提出了一种通用方法,可以从很少有训练参数的原始图像中提取稀疏特征。我们直接在原始图像上使用径向基函数网络(RBFN)实现了这一点。我们评估了Vizdoom环境中Q学习任务中提出的视觉提取方法的性能。然后,我们将结果与两个深Q网络进行了比较,一个直接在图像上训练,另一个对由预验证的自动编码器提取的功能进行了训练。我们表明,所提出的方法提供了类似的或在某些情况下具有更少的可训练参数的更好的性能,而在概念上更简单。
translated by 谷歌翻译
本文介绍了一个新颖而通用的框架,以利用最佳运输工具来解决监督标记的图形预测的旗舰任务。我们将问题提出为融合Gromov-Wasserstein(FGW)损失的回归,并提出了一个依靠FGW Barycenter的预测模型,该模型的权重取决于输入。首先,我们基于内核脊回归引入了一个非参数估计量,该估计量得到了理论结果,例如一致性和过量风险绑定。接下来,我们提出了一个可解释的参数模型,其中Barycenter权重用神经网络建模,并进一步学习了FGW Barycenter的图形。数值实验表明了该方法的强度及其在模拟数据上标记的图形空间以及难以实现的代谢识别问题上插值的能力,在这种情况下,它几乎没有工程学才能达到非常好的性能。
translated by 谷歌翻译
PEPIT是一种Python软件包,旨在简化对可能涉及梯度,投影,近端或线性优化oracels的大型一阶优化方法的最坏情况分析的最坏情况分析,以及它们的近似或布赖曼变体。简而言之,PEPIT是一种封装,可实现一级优化方法的计算机辅助案例分析。关键的潜在思想是施放执行最坏情况分析的问题,通常称为性能估计问题(PEP),作为可以在数字上解决的半纤维程序(SDP)。为此,只需要包用户才能像他们已经实现的那样写出一阶方法。然后,包裹处理SDP建模部件,并且最坏情况分析通过标准求解器进行数字地执行。
translated by 谷歌翻译
在过去几年中,已经开发了许多“可解释的人工智能”(XAI)方法,但这些方法并不总是客观地评估。为了评估各种显着性方法产生的热量表的质量,我们开发了一种框架,以产生具有合成病变和已知地面真理图的人工数据。使用此框架,我们评估了两个数据集,其中两个数据集,佩林噪声和2D脑MRI切片,发现Heatmaps在显着性方法和背景之间变化很大。在应用这些框架之前,我们强烈建议在临床或其他安全关键环境中使用此框架进一步评估显着性图和XAI方法。
translated by 谷歌翻译
机器学习(ml)越来越多地用于通知高赌注决策。作为复杂的ML模型(例如,深神经网络)通常被认为是黑匣子,已经开发了丰富的程序,以阐明其内在的工作和他们预测来的方式,定义“可解释的AI”( xai)。显着性方法根据“重要性”的某种尺寸等级等级。由于特征重要性的正式定义是缺乏的,因此难以验证这些方法。已经证明,一些显着性方法可以突出显示与预测目标(抑制变量)没有统计关联的特征。为了避免由于这种行为而误解,我们提出了这种关联的实际存在作为特征重要性的必要条件和客观初步定义。我们仔细制作了一个地面真实的数据集,其中所有统计依赖性都是明确的和线性的,作为研究抑制变量问题的基准。我们评估了关于我们的客观定义的常见解释方法,包括LRP,DTD,Patternet,图案化,石灰,锚,Shap和基于置换的方法。我们表明,大多数这些方法无法区分此设置中的抑制器的重要功能。
translated by 谷歌翻译